Zum Hauptinhalt springen

Einheit 7 — LLM vs. Hard-Coded

Was du nach dieser Einheit weißt: Du kannst für jede Aufgabe in einem Workflow entscheiden, ob ein Generative AI Agent oder eine regelbasierte Lösung die bessere Wahl ist — und weißt warum das für die Produktionsreife wichtig ist.


Die Verlockung

Generative AI Agents sind beeindruckend. Du gibst ihnen ein PDF und bekommst strukturierte Daten zurück. Du gibst ihnen einen Text und bekommst eine Zusammenfassung. Es ist verlockend, sie für alles einzusetzen.

Aber: Jeder Generative AI Agent hat Kosten, die eine regelbasierte Lösung nicht hat:

  • Laufzeit — ein LLM-Aufruf dauert Sekunden, eine regelbasierte Prüfung Millisekunden
  • Kosten — jeder LLM-Aufruf kostet Geld (Token-basiert)
  • Nicht-Determinismus — derselbe Input kann bei zwei Durchläufen leicht unterschiedliche Outputs erzeugen
  • Halluzinationsrisiko — der Agent kann Dinge „erfinden" die nicht in den Daten stehen

Für produktionsreife Workflows ist die Frage nicht „Kann ein LLM das?" sondern „Muss ein LLM das — oder geht es einfacher, schneller und zuverlässiger?"

📹 Video: [Platzhalter — Screencast: Derselbe Workflow einmal mit LLM-Agent für eine Entscheidung, einmal mit Switch Agent — Vergleich von Laufzeit und Ergebniskonsistenz]


Die Entscheidungsregel

Unstrukturierte Daten → LLM. Bekannte Struktur → Hard-Coded.

AufgabeDatenRichtige WahlWarum
Rechnungsdaten aus PDF extrahierenUnstrukturiert (Freitext, Layout variiert)LLMKein festes Format, KI muss interpretieren
Dokument kategorisieren (Rechnung, Lieferschein, Angebot)Unstrukturiert (Inhalt variiert)LLMInhaltliches Verständnis nötig
E-Mail-Stimmung erkennen (Reklamation, Anfrage, Lob)Unstrukturiert (Freitext)LLMSprachverständnis nötig
Dateiname prüfen (enthält „Rechnung"?)Strukturiert (String)Hard-Coded (Filter/Switch)Einfacher Textvergleich, kein LLM nötig
Betrag über/unter 1000€?Strukturiert (Zahl)Hard-Coded (Switch)Einfacher Zahlenvergleich
Dateityp prüfen (PDF, Excel, Bild)Strukturiert (MIME-Type)Hard-Coded (Switch/Filter)Festes Feld, deterministische Prüfung
JSON-Felder zusammenführenStrukturiert (JSON)Hard-Coded (JSON Merge)Deterministische Operation
Datum umformatierenStrukturiert (String)Hard-Coded (Liquid Template)Regelbasierte Transformation
Logdatei-Einträge nach Schweregrad filternStrukturiert (bekanntes Format)Hard-Coded (Filter)Festes Muster, kein Interpretation nötig

📸 Screenshot: [Platzhalter — Entscheidungsdiagramm als Flussdiagramm: „Sind die Eingabedaten strukturiert?" → Ja: Hard-Coded → Nein: „Braucht die Aufgabe Interpretation?" → Ja: LLM → Nein: Hard-Coded]


Praxisbeispiel: Dokumentenkategorisierung

Du bekommst Dokumente per E-Mail und musst sie kategorisieren: Rechnung, Lieferschein, Angebot oder Sonstiges.

Ansatz 1 — Kategorisierung am Dateinamen (Hard-Coded):

Wenn der Absender seine Dateien konsistent benennt (z. B. RE-2026-04523.pdf, LS-2026-00891.pdf), reicht ein Switch Agent:

Dateiname beginnt mit "RE-" → Rechnung
Dateiname beginnt mit "LS-" → Lieferschein
Dateiname beginnt mit "AG-" → Angebot
Sonst → Sonstiges

Schnell, kostenlos, deterministisch. Kein LLM nötig.

Ansatz 2 — Kategorisierung am Inhalt (LLM):

Wenn die Dateinamen nicht aussagekräftig sind (Scan_001.pdf, Dokument.pdf), muss der Inhalt gelesen und interpretiert werden. Hier ist ein Generative AI Agent die richtige Wahl.

📸 Screenshot: [Platzhalter — Gegenüberstellung: Links Switch Agent mit Dateiname-Bedingungen, rechts Generative AI Agent mit Prompt zur Inhaltskategorisierung]

Die richtige Frage ist also nicht: „Kann KI Dokumente kategorisieren?" — Ja, kann sie. Sondern: „Reicht die Information im Dateinamen — oder muss der Inhalt interpretiert werden?"


Gemischter Ansatz

In der Praxis nutzt man oft beides zusammen:

Dateiname eindeutig? → Switch Agent (Hard-Coded)
↓ Nein
Generative AI Agent (Inhalt lesen)

So werden die einfachen Fälle schnell und günstig abgehandelt, und der LLM wird nur für die Fälle eingesetzt, die wirklich Interpretation brauchen.

📹 Video: [Platzhalter — Screencast: Gemischten Ansatz im Workflow-Designer bauen — Switch Agent als Vorstufe, LLM nur als Fallback]


Warum das für Produktionsreife wichtig ist

KriteriumLLMHard-Coded
GeschwindigkeitSekunden pro AufrufMillisekunden
KostenToken-basiert (summiert sich)Kostenlos
DeterminismusErgebnis kann variierenImmer identisches Ergebnis
HalluzinationsrisikoVorhandenKeines
FlexibilitätHoch (versteht neue Formate)Niedrig (nur bekannte Muster)
WartbarkeitPrompt muss gepflegt werdenRegeln müssen gepflegt werden

Produktionsreife bedeutet: das richtige Werkzeug für die richtige Aufgabe. Einen LLM für einen Zahlenvergleich einzusetzen ist wie mit dem Hubschrauber zum Bäcker fliegen — technisch möglich, aber nicht sinnvoll.

Mehr dazu im Nachschlagewerk

Eine detaillierte Entscheidungsmatrix findest du in der Dokumentation unter LLM vs. Hard-Coded.


Weiter: Einheit 8 — Zustandsnormalisierung